本文在联合学习(FL)设置中介绍了主题的颗粒状隐私,其中一个受试者是一个人,其私人信息由限制在单个联邦用户中或在多个联邦用户中分布的几个数据项体现。我们正式定义了FL的主题级别差异隐私的概念。我们提出了三种实施主题级DP的新算法。这些算法中的两种分别基于用户级别的本地差异隐私(LDP)和组差异隐私的概念。第三算法是基于对参加培训迷你批次的受试者的层次梯度平均(HigradavgDP)的新颖概念。我们还为多个联邦用户的受试者介绍了隐私损失的水平组成。我们表明,在最坏情况下,水平成分等效于顺序组成。我们证明了对所有算法的主题级别的DP保证,并使用女性和莎士比亚数据集对其进行经验分析。我们的评估表明,在我们的三种算法中,HigradavgDP提供了最佳的模型性能,接近使用基于DP-SGD的算法训练的模型,该算法提供了较弱的项目级别隐私保证。
translated by 谷歌翻译
联合学习中的隐私(FL)以两种不同的粒度进行了研究:项目级,该项目级别保护单个数据点和用户级别,该数据点保护联邦中的每个用户(参与者)。几乎所有的私人文献都致力于研究这两种粒度的隐私攻击和防御。最近,主题级隐私已成为一种替代性隐私粒度,以保护个人(数据主体)的隐私(数据主题),其数据分布在跨索洛FL设置中的多个(组织)用户。对手可能有兴趣通过攻击受过训练的模型来恢复有关这些人(又称emph {data主体})的私人信息。对这些模式的系统研究需要对联邦的完全控制,而实际数据集是不可能的。我们设计了一个模拟器,用于生成各种合成联邦配置,使我们能够研究数据的属性,模型设计和培训以及联合会本身如何影响主题隐私风险。我们提出了\ emph {主题成员推理}的三个攻击,并检查影响攻击功效的联邦中所有因素之间的相互作用。我们还研究了差异隐私在减轻这种威胁方面的有效性。我们的收获概括到像女权主义者这样的现实世界数据集中,对我们的发现赋予了信任。
translated by 谷歌翻译